Експерти по изкуствен интелект настояват за повече „предпазни мерки“ за дълбоки фалшиви фалшификации
Експерти по изкуствен интелект и ръководители в промишлеността, в това число един от пионерите в технологията Йошуа Бенгио, подписаха отворено писмо, призоваващо за повече регулация към основаването на дълбоки подправени фалшификации, акцентирайки евентуални опасности за общество.
„ Днес дийпфейковете постоянно включват полови изображения, измами или политическа дезинформация. Тъй като AI напредва бързо и прави дълбоките фалшификации доста по-лесни за основаване, са нужни защитни ограничения “, се споделя в писмото на групата, което е формирано от Андрю Крич, откривател на AI в UC Berkeley.
Deepfakes са реалистични въпреки всичко изфабрикувани изображения, аудиозаписи и видеоклипове, основани от AI логаритми, и последните достижения в технологията ги вършат все по-неразличими от основаното от хора наличие.
Писмото, озаглавено „ Прекъсване на Deepfake Supply Chain “, прави рекомендации за това по какъв начин да се контролират deepfakes, в това число цялостно криминализиране на deepfake детска порнография, наказателни наказания за всяко лице, което умишлено основава или улеснява разпространяването на нездравословни deepfakes и изисква от фирмите за изкуствен интелект да предотвратят продуктите си от основаване на нездравословни deepfakes.
Към сряда сутринта над 400 лица от разнообразни промишлености, в това число университетски среди, развлечения и политика, са подписали писмото.
Вземете последните национални вести. Изпраща се на вашия имейл, всеки ден.
Подписалите се включват Стивън Пинкър, професор по логика на психиката в Харвард, Джой Буоламвини, създател на Алгоритмичната лига на справедливостта, двама някогашни президенти на Естония, откриватели от Google DeepMind и откривател от OpenAI.
Гарантиране, че системите с изкуствен интелект не нанасянето на щета на обществото е приоритет за регулаторите, откогато OpenAI, подсилен от Microsoft, показа ChatGPT в края на 2022 година, което удиви потребителите, като ги въвлече в човешки диалог и извършва други задания.
Има голям брой предизвестия от видни персони по отношение на рисковете от AI, по-специално писмо, подписано от Elon Musk предходната година, което приканва за шестмесечна пауза в създаването на системи, по-мощни от GPT-4 AI модела на OpenAI.